La inteligencia artificial cambia la manera de crear y escuchar música

La mayoría de artistas usa algoritmos en sus canciones y el contenido de algunas composiciones es 100% sintético

El debate sobre el papel que jugará la Inteligencia artificial (IA) en el futuro de la música está servido. Hace unos días la cantante canadiense Grimes aseguraba que la música en directo está abocada a la desaparición porque se está consolidando la tecnología en el día a día de los seres humanos. La afirmación incendió las redes. La artista rusa Zola Jesús le contestó: “Tus palabras provienen del privilegio fascista de Silicon Valley”, ya que Grimes es la pareja de Elon Musk. A la discusión se han sumado varias personalidades de la música como la compositora Holly Herndon, que tras completar un doctorado sobre la relación entre música y tecnología apuesta por la convivencia de IA y música en directo. “Una máquina que simula un batería puede crear ritmos sencillos pero jamás sustituirá a un gran batería”, señala.

Los expertos buscan la analogía con el ajedrez. “Desde hace años el mejor jugador de ajedrez es un ordenador, pero eso no quita que siga habiendo campeones mundiales de ajedrez o siga habiendo campeonatos”, señala Nuria Oliver, doctora en inteligencia artificial por el MIT (Massachusetts Institute of Technology). Hoy en día la mayoría de artistas usan algoritmos de IA en sus canciones y desde hace años el contenido de algunas es 100% sintético. Sin embargo, la experiencia del concierto es mucho mas de lo q son las canciones. “Es una sensación compartida. El ser humano es un ser social, y por ello, vamos a seguir necesitando experiencias sociales con otras personas. Además, como se usan todo tipo de herramientas en la música con IA, muchas veces no sabemos donde empieza lo artificial y donde acaba lo biológico”, añade Oliver.

Además, llevamos más de 10 años conviviendo con la música en directo y la IA, aunque a veces no nos demos cuenta. Los sistemas de luces y sonidos integran desde hace años sistemas de IA. Pero no solo eso, también tenemos artistas totalmente artificiales. Hatsune Miku, se convirtió en la primera artista virtual del mundo en 2007. A los espectáculos de la creación japonesa acuden los aficionados de la unión de arte y tecnología y los amantes de las proyecciones tridimensionales con sonido envolvente porque Miku no es una cantante real sino un holograma. En 2020 será la primera vez que pise España. En enero dará un concierto en Barcelona. La incubadora de Hatsune Miku ha sido Vocaloid, una aplicación con un software de síntesis de voz desarrollada por Yamaha, inspirada en el trabajo de Music Technology Group de la Universidad Pompeu Fabra de Barcelona. Esta herramienta es capaz de sintetizar canciones. Cuando se inserta la melodía y las letras, el software puede cambiar el acento, agregar efectos e incluso cambiar el tono de la voz.

Existen algoritmos que permiten recrear músicos y simular como toca un chelista o un violinista y reproducirlo automáticamente. “Esta IA es muy útil para analizar en tiempo real los movimientos y estado fisiológico de los músicos y los directores de orquesta”, dice Oliver.

Además, existen prótesis que han hecho posible que músicos profesionales que han perdido una extremidad puedan seguir dedicándose a componer. El equipo de Georgia Tech Center for Music Technology (GTCMT) ha creado una prótesis con para un batería con un software de inteligencia artificial. “Este brazo robótico incluye la activación controlada por los músculos o la mente, es decir, el usuario no controla completamente las acciones de la prótesis, sino que un mecanismo lo hace por él”, explica Gabriele Bunkheila, responsable de producto de audio de MathWorks. El área que se ha desarrollado con la llegada de los servicios digitales de música es el modelado de los gustos de la persona o la recomendación de música. “Plataformas como Spotify están diseñadas con un algoritmo que analiza gustos y propone temas similares a los deseados por el usuario”, apunta Bunkheila.

Pero en poco tiempo estaremos en otra pantalla. Un algoritmo podrá predecir el éxito de una canción. “Puede analizar datos históricos como las canciones han tenido éxito y usando técnicas de IA identificar patrones de éxito y aplicarlos a las nuevas canciones”, afirma Nuria Oliver, doctora en inteligencia artificial por el MIT (Massachusetts Institute of Technology). Hay otra manera de hacerlo. “Se puede entrenar un modelo de IA con todas las canciones de un artista que haya triunfado como Justin Bieber o Rosalía. Se puede generar el estilo del artista a partir de canciones previas que hayan sido un éxito”, añade.

Según los expertos la inteligencia artificial existe como área de investigación desde que existen los ordenadores, pero durante esta década se han producido los cambios idóneos para que la tecnología esté disponible para la sociedad. “La disponibilidad de grandes cantidades de datos y música digital, los recursos para realizar análisis a bajo coste, y el desarrollo de arquitecturas o algoritmos de deep learning han hecho posible el auge de estos nuevos sistemas para generar música”, señala Oliver.

Cuando salió la televisión la preocupación era q va a terminar el teatro. Cada vez que ha habido nuevos medios, preocupa que desaparezca todo lo anterior y lo que suele ocurrir es la coexistencia de ambos sistemas. “El ser humano ser social con una gran capacidad de interacción. Tener una vivencia compartida con miles de personas es algo que independientemente de que los artistas sean humanos, robots o mixtos vamos a seguir queriendo experimentar”, concluye Oliver.
El teclado que compone melodías

Este mes de diciembre se ha puesto a la venta Amazon DeepComposer, un teclado con 32 teclas y la capacidad de conectarse a un ordenador. Existen muchos teclados similares pero la novedad de DeepComposer es que, conectado a la nube, aprende por si mismo. “Es el primer teclado del mundo con machine learning integrado”, citan fuentes de Amazon.

La IA que usa este instrumento es capaz de generar distintos estilos musicales (desde el clásico al jazz pasando por el rock y el pop). Para ello hay una red neuronal que genera y analiza lo creado para finalmente producir la pieza. El trabajo previo es la evaluación de grandes cantidades de datos para poder distinguir los géneros musicales. Los expertos creen que este tipo de instrumentos son aliados para que los músicos creen composiciones sin mucho esfuerzo. Aunque no todo es negativo, quizá sea una motivación extra para que el gran público quiera a aprender a tocar un instrumento.

Tomado de https://elpais.com

Relacionados